"ChatGPT, bir hata mı yaptın?" Her şeyi değiştirebilecek masum bir soru

Belki de yapmışsınızdır. ChatGPT veya başka bir yapay zeka sohbet robotu kullanıyorsunuz ve bir hata yaptığını fark ediyorsunuz. Bunu hesaba katmasını umarak söylüyorsunuz... ve o da size katılacağını söylüyor. Ama içten içe aslında hiçbir şey olmamış. Olsaydı, insan ve makine öz farkındalığı arasındaki eşitlikte gerçek bir paradigma değişiminden bahsediyor olabilirdik. İyi ya da kötü, henüz gerçekleşmemiş bir şey.
Bir makinenin hatalarını bir insanın yapacağı gibi açıklamasını neden bekliyoruz? Bir yapay zeka asistanının yazdığı bir cümlenin ardında bir niyet veya bilinçli bir akıl yürütme olduğunu düşünmemize ne sebep oluyor? Belki de yapay zeka hakkındaki en büyük yanlış anlama, yetenekleriyle değil, onu insanlaştırma eğilimimizle ilgilidir .
Grok veya ChatGPT'nin yakın geçmişi bunu doğruluyor: Şaşkın kullanıcılar bu sistemlere doğrudan başarısızlıklarını soruyor ve yanlış oldukları kadar kesin cevaplar alıyorlar. Ancak sorun sadece cevapta değil. Soruda da. Bir dil modeli "Bunu neden yaptın?" sorusuna cevap verdiğinde ne olacağını anlamak, yapay zekanın ne olduğu ve ne olmadığı hakkındaki fikirlerimizi tamamen yerle bir etmeyi gerektiriyor.
Yapay zekada öz-bilgiye dair yanlış vaatChatGPT veya Grok gibi gelişmiş bir sohbet robotuyla etkileşim kurmak, zeki bir varlıkla diyalog kurmak gibi hissettirebilir. Konuşma odaklı tasarım bu yanılsamayı güçlendirir. Ancak gerçek şu ki, her oturumun arkasında kalıcı bir kimlik, istikrarlı bir hafıza ve tutarlı bir benlik yoktur .
Bu hatalı yanıtlar, modelin özünden kaynaklanmaktadır: betimlediği gerçekliğe erişimi olmayan, desen tabanlı bir dil üreteci.
Hiçbir şey bilmeden, biliyormuş gibi davranan modellerChatGPT gibi dil modelleri ne bildiklerini bilmezler. Nasıl eğitildiklerini analiz edemezler ve yeteneklerinin yapılandırılmış bir haritasına erişemezler. Yetenekleri sorulduğunda ürettikleri, sistemlerinin işlevsel bir değerlendirmesi değil, metin olasılıklarına dayalı bir yanıttır.
Binder ve arkadaşları tarafından 2024 yılında yapılan bir çalışma, bu yetersizliği vurguladı: Modeller, basit görevlerdeki davranışlarını tahmin edebiliyordu, ancak karmaşık veya öngörülemeyen görevlerde sürekli olarak başarısız oluyordu . Dahası, bazı deneylerde, modellerin kendi kendini düzeltme girişimleri performanslarını kötüleştirdi.
Bunun nedeni, gerçek iç gözlemin bağlam farkındalığı, hafıza ve içsel yapılara erişim gerektirmesidir. Bunların hiçbiri bir LLM'de mevcut değildir. Bir insan "Dosyanın kaydedildiğini düşündüğüm için hata yaptım" dediğinde, bunun arkasında zihinsel bir süreç vardır . Bir dil modeli aynı şeyi söylüyorsa, binlerce kez gördüğü bir cümleyi taklit ediyordur. İçsel bir deneyim yoktur. Sadece metindir.
Soruyla şekillenen parçalanmış bir kimlikBir diğer temel sorun ise, komut istemlerinin (kullanıcının soruları) modelin yanıtlarını nasıl şekillendirdiğidir. "Python'da programlayabilir misiniz?" diye sorarsanız, yapay zeka genellikle olumlu yanıt verir. Ancak "Python'daki sınırlamalarınız nelerdir?" diye sorarsanız, pratikte tüm bu görevleri yerine getirebilmesine rağmen, muhtemelen bir dizi kısıtlama sıralayacaktır.
Bunun nedeni, modelin gerçek sınırlarınızın bir değerlendirmesine dayanmamasıdır. Bunun yerine, komutun tonu ve içeriğiyle tutarlı dil kalıplarını arar. Dolayısıyla, "Her şeyi sildiniz mi?" diye soran gergin bir kullanıcı, aynı soruyu sakin ve teknik bir tonda soran bir kullanıcıdan muhtemelen daha endişe verici bir yanıt alacaktır.
Cevap, nesnel bir gerçeğe değil, muhatabın duygusal ve anlamsal çerçevesine uyum sağlar.
Kafa karışıklığını artıran görünmez katmanlarChatGPT gibi modeller monolitik sistemler değildir. Cevapları yazan asistanın arkasında moderasyon katmanları , araç modülleri, gezinme uzantıları, harici veritabanları ve güvenlik filtreleri bulunur. Bunların tümü, temel modelin varlığından bile haberdar olmadan çalışır.
Örneğin, bir moderasyon katmanı belirli kelimeleri veya özellikleri engellerse, model neden belirli bir şekilde yanıt vermediğini açıklayamaz. Sistemde neler olup bittiğine dair gerçek bir bilgisi olmasa bile , makul görünen "Bu bilgileri görüntüleme yetkim yok" gibi bir ifade üretecektir .
Bu tasarım, kendi kendine teşhis koyma veya kendi kendine düşünme girişimlerini bir kurguya dönüştürüyor. Sürükleyici ama boş bir hikaye. Tıpkı tam olarak anlamadığı bir rolü doğaçlama yapan bir aktör gibi.
İnsan dilinin serabıHayatımız boyunca insan açıklamalarını dinledik. Çocukluğumuzdan itibaren "Bunu neden yaptın?" diye sorarız ve mantıklı veya duygusal gerekçeler beklemeyi öğreniriz. Dolayısıyla bir yapay zeka "Özür dilerim, bir hataydı" diye yanıt verdiğinde, bunun arkasında bir niyet olduğunu hissederiz. Ama öyle değildir.
Dil modelleri ne söylediklerini anlamazlar. Sadece belirli bağlamlarla ilişkili gördükleri metin biçimlerini tekrarlarlar . ChatGPT tarafından yazılan bir özür, pişmanlık anlamına gelmez; sadece bir özürün istatistiksel örüntüsüne uyar.
Bunun derin sonuçları var. Sadece teknik değil, felsefi sonuçları da var. Düşünmeden düşünceyi taklit eden, inanmadan tartışan, hiçbir şey bilmeden biliyor gibi görünen varlıklarla karşı karşıyayız.
Yapay zeka ile yeni bir ilişkiTüm bunlar acil bir soruyu gündeme getiriyor: Ne yaptıklarını anlamayan, ama sanki anlıyormuş gibi bize açıklayan sistemlerle nasıl etkileşime girmeliyiz?
Çözüm, modellerin değişmesini beklemek değil. Belki de beklentilerimizi değiştirmektir. Yapay zekadan kendini bir insanmış gibi açıklamasını beklemeyi bırakın ve ona olduğu gibi davranmaya başlayın: İstatistiksel yeteneklere sahip metinsel bir araç, refleksif bir varlık değil.
eleconomista